Гласовият фишинг е измама с изкуствен интелект в реално време
Авторът е откривател на изкуствения разсъдък в Bramble Intelligence и е работил върху отчета за положението на изкуствения разсъдък за 2025 година
Доскоро построяването на система с изкуствен интелект, която може да поддържа безапелационен телефонен диалог, беше трудоемка задача. Трябваше да комбинирате обособени принадлежности за различаване на тирада, езикова обработка и синтез на тирада, всички свързани посредством нежен програмен продукт за телефония.
Това към този момент не е правилно. Пристигането на модели на изкуствен интелект в действително време, основани на тирада, като да вземем за пример RealTime API на OpenAI, пуснат предходната година, значи, че система, която в миналото е изисквала голям брой съставни елементи, в този момент може да бъде основана за минути.
Обществено наличният код може да свърже тези модели към телефонна линия. AI моделът слуша, „ мисли “ и реагира на мига. Резултатът е синтетичен глас, който може да беседва безпрепятствено, да импровизира естествено и да поддържа разговор по метод, който се усеща човешки.
През миналата година се преместихме от теоретичната опция за широкомащабни гласови измами с задействан AI фишинг — или вишинг — към действителността. Миналата година софтуерната компания в Обединеното кралство Arup беше излъгана с 25 милиона $ в дълбока подправена машинация, до момента в който яростна офанзива против Cisco съумя да извлече информация от основана на облак система за ръководство на взаимоотношенията с клиенти, която употребява.
Това, което в миналото изискваше експертни познания, в този момент е налично, авансово пакетирано, с цел да може всеки да го употребява. Гласовите модели с ниска инертност отстраниха последните механически бариери пред гласовите измами с AI в действително време.
При тестването ми лиши единствено няколко реда указания, с цел да накарам такава система да работи като управител по човешки запаси, който се обажда за заплатите, или чиновник по измамите, който предизвестява за подозрителна активност. Тъй като AI може да разсъждава и трансформира тактиката в действително време, манипулирането му е адаптивно.
Самата технология има законни приложения, като следене на опазването на здравето, обслужване на клиенти или езикови уроци. Но същата досегаемост, която разрешава нововъведенията, разрешава и щета. На доктрина един оператор би могъл да започва стотици хиляди лъжливи позвънявания дневно, всеки от които е съгласуван с задачата си.
Тази опасност се усложнява от възходящия натурализъм и ниските разноски на платформи като ElevenLabs или Cartesia, които могат да улеснят гласовото клониране с доста къси аудио проби.
В случая на обществени персони е допустимо — и относително елементарно — да съберете часове аудио и да създадете завладяващо приближение на техния глас без тяхното познание. Според ФБР държавни чиновници към този момент са били представяни за сходни офанзиви. Той предизвести обществеността да не приема, че известията, за които се твърди, че са от върховен чиновник на Съединени американски щати, са достоверни.
Хранилището на риска на MIT, база данни с над 1600 AI риска, демонстрира, че през последните пет години делът на случаите с AI, свързани с машинация, се е нараснал от към 9 % на към 48 %.
Мащабът на това киберпрестъпление значи системи за гласова инспекция, които идентифицирането на клиентите по техния говорен модел към този момент е обвързване. Чувствителните поръчки и транзакциите с висока стойност би трябвало да изискват многофакторна инспекция, която не зависи от това по какъв начин звучи някой.
За останалите от нас урокът е елементарен: гласът от другия завършек на линията към този момент не е доказателство за това кой приказва. Точно както сме се научили да третираме имейлите с нараснало внимание, през днешния ден би трябвало да се научим да се съмняваме в човешки глас. След време може да се наложи да създадем гласови водни знаци или цифрови подписи, които да удостоверяват истинността на речта.
Дебатите към ИИ от време на време се оформят в екзистенциални термини. Но на първо време ще ни доближат по-малките опасности.
Измамата и представянето под непозната идентичност разяждат доверието в ежедневната връзка. Тези сякаш всемирски закононарушения са предната линия на прехода към AI. Същата досетливост, която е основала инструментите, би трябвало да бъде приложена за обезпечаването им.
Истинското спиране на генеративния AI — тихият, незабележим тип — към този момент е настъпило. Няма да се разгласи със гигантски разсъдък, а с телефонно позвъняване.